昇腾×盘古:软硬协同炼就MoE推理性价比之王!
在通往通用人工智能(AGI)的进程中,混合专家(MoE)模型凭借动态稀疏计算优势,成为大模型推理提效的关键路径。华为团队重磅推出昇腾平台原生设计的Pangu Pro MoE 72B模型,大幅降低计算开销,并在SuperCLUE千亿内模型并列国内第一。通过系统级
在通往通用人工智能(AGI)的进程中,混合专家(MoE)模型凭借动态稀疏计算优势,成为大模型推理提效的关键路径。华为团队重磅推出昇腾平台原生设计的Pangu Pro MoE 72B模型,大幅降低计算开销,并在SuperCLUE千亿内模型并列国内第一。通过系统级
如今,后发优势再一次来到了大洋此岸,以华为为代表的中国科技企业,纷纷提出对MoE架构的优化重组方案。尤其是华为的MoGE架构,不仅克服了MoE负载不均衡及效率瓶颈的弊病,还能够降本增效,便于训练和部署。
在通往通用人工智能(AGI)的进程中,混合专家(MoE)模型凭借动态稀疏计算优势,成为大模型推理提效的关键路径。华为团队重磅推出昇腾平台原生设计的Pangu Pro MoE 72B模型,大幅降低计算开销,并在SuperCLUE千亿内模型并列国内第一。通过系统级
在通往通用人工智能(AGI)的进程中,混合专家(MoE)模型凭借动态稀疏计算优势,成为大模型推理提效的关键路径。华为团队重磅推出昇腾平台原生设计的 Pangu Pro MoE 72B模型,大幅降低计算开销,并在SuperCLUE千亿内模型并列国内第一。
2025年,人工智能技术迭代升级,DeepSeek以MoE混合架构与动态训练算法,实现大模型性能与能效比指数级提升,开启“普惠智能”新纪元。其开源生态深度构建,将智能能力以标准化API、行业解决方案等形态注入千行百业,重塑行业规则,推动AI深度渗透产品创新、用
“ Pangu Ultra MoE 的每一项突破,都体现了华为在AI底层技术与工程化落地中的领先实力。”
三分之一个世纪前,加拿大学者们提出了经典的MoE模型神经网络结构,在人类探索AI的「石器时代」中,为后世留下了变革的火种。
RL后训练已成为大模型性能突破的「杀手锏」,而算力浪费和集群效率低成为一大难题。这次,华为团队祭出两大黑科技直接破局。不仅在CloudMatrix 384超节点实现MoE大模型训推共卡,资源利用率翻倍,还打破了同步算法限制,让训练速度再提升50%。
最近,华为在MoE训练系统方面,给出了MoE训练算子和内存优化新方案:三大核心算子全面提速,系统吞吐再提20%,Selective R/S实现内存节省70%。
最近,华为在MoE训练系统方面,给出了MoE训练算子和内存优化新方案:三大核心算子全面提速,系统吞吐再提20%,Selective R/S实现内存节省70%。
最近,华为在MoE训练系统方面,给出了MoE训练算子和内存优化新方案:三大核心算子全面提速,系统吞吐再提20%,Selective R/S实现内存节省70%。
华为盘古团队发布了 Pangu Ultra MoE 模型架构与训练方法的中文技术报告,披露了模型的细节,其核心突破在于实现了“全栈国产化”——完全基于昇腾AI计算平台训练,参数量达7180亿,是中国首个自主可控的超大规模稀疏混合专家模型(MoE)。这一成果标志
5月底,DeepSeek-R1模型完成一次版本迭代,这次“小更新”引发了大量关注,测评显示,其整体性能逼近目前顶级模型OpenAI o3和谷歌Gemini 2.5-Pro。
金箭无锡基地,零界系列新品下线仪式暨媒体试驾会引发行业聚焦。这款被金箭定位为“高性能旗舰颠覆者”的智能电摩,不仅承载着品牌冲击高端的雄心,更以其硬核性能与全栈自研的智能系统,直指当前两轮电动车市场的核心痛点与升级需求。
近日,华为在MoE模型训练领域再进一步,重磅推出参数规模高达7180亿的全新模型——盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。华为同时发布盘古Ultra MoE模型架构和训练方法的技术报告,披露众多技术细节,充分体现了昇
微信推出“朋友圈访客”和“已读”功能?Cursor 等第三方 AI 开发工具后,员工争议不断,字节内部再发通知致歉 ;英伟达 2026 财年 Q1 财报:营收同比增长 69%;宇树回应更名“股份有限公司”;百度回应支付李彦宏私人飞机费用京东外卖“百亿补贴”规则
5月30日,北京。在AI训练领域,一件大事炸开了锅:华为团队正式对外发布了全流程基于国产昇腾算力、自主研发的盘古Ultra MoE准万亿级大模型,参数量直接拉满到7180亿,技术报告也同步亮相。一时间,国产AI基础设施到底能不能站稳脚跟引发全网热议。
2025年5月,一篇尚未正式发表的arXiv预印本悄然掀起波澜。研究者们像拆解精密钟表般剖开大语言模型(LLM)的黑箱,在神经元与专家模块的丛林里,他们发现了专属于不同指令的“开关”。这项研究或许将改变我们理解AI思考方式的角度——原来模型执行指令时,并非全脑
Pangu Ultra MoE是一个全流程在昇腾NPU上训练的准万亿MoE模型。最近华为盘古团队发布了Pangu Ultra MoE模型架构和训练方法的技术报告[1],进一步披露了这个模型的细节。
ultra moe panguultra pangu 2025-05-30 03:52 10
金融市场犹如变幻莫测的海洋,时刻涌动着投资与经济政策的波澜,深刻影响着全球经济的走向。在此,喜娜AI为您呈上昨夜今晨的财经热点新闻,全方位覆盖股市动态、经济数据、企业财务状况以及政策更新等关键领域,助您精准洞察金融世界的风云变幻,把握市场脉搏。